#оптимизация LLM19.10.2025
BitDistill: Microsoft предлагает 1.58‑битовую дистилляцию с 10× экономией памяти и ~2.65× ускорением на CPU
'BitNet Distillation преобразует FP16 LLM в 1.58‑битовую модель с близкой к FP16 точностью, достигая до 10× экономии памяти и около 2.65× ускорения на CPU.'